A bootstrapping egy statisztikai eljárás, amely az adatok (vagy egy, az adatokból becsült modell) újramintavételezésével (gyakran visszatevéssel (with replacement - WR) - amikor egy elem többször is előfordulhat a mintában) statisztikai mutatók eloszlásának becslésére szolgál.[1] A bootstrapping módszerrel ismételt mintavételezés segítségével becsléseket készítünk, és ezeket olyan mérőszámokkal értékeljük, mint a torzítás (mennyire tér el a becslés a valós értéktől), a variancia (a becslések szórása), a konfidenciaintervallumok (a becslés megbízhatósági tartománya), és a predikciós hiba (a becslés pontossága), hogy jobban megértsük, mennyire megbízhatóak az eredményeink. [2][3] Ez a módszer lehetővé teszi szinte bármilyen statisztikai mutató mintavételi eloszlásának becslését véletlen mintavételezési eljárások alkalmazásával. [1]
A bootstrapping módszer az eredeti becsült érték tulajdonságait (például a varianciáját) úgy méri, hogy az adathalmazból véletlenszerűen többször mintát vesz, és ezek alapján elemzi a minta jellemzőit. A bootstrapet bevezető Efron tanulmányának[4] egy kulcsfontosságú eredménye, hogy a visszatevéses mintavételezést alkalmazó bootstrap módszerek kedvezőbb teljesítményt nyújtanak a korábbi, visszatevés nélküli mintavételt alkalmazó bootstrap módszerekhez képest, mint például a jackknife A bevezetése óta azonban a bootstrap számos változatát javasolták, beleértve a visszatevés nélküli mintavételezést vagy az eredeti adatoknál nagyobb vagy kisebb bootstrap-minták létrehozását.
A bootstrapping hipotézisvizsgálatok felépítésére is használható.[5] Gyakran használják alternatívaként a paraméteres modellre alapozott statisztikai következtetéssel szemben, különösen akkor, ha a paraméteres eljárás feltételei megkérdőjelezhetőek, vagy ha a paraméteres következtetés lehetetlen vagy bonyolult képleteket igényel a standard hibák kiszámításához.